@InProceedings{CarneiroAndr:2016:ViInDa,
author = "Carneiro, Heitor Guerra and Andrade Neto, Pedro Ribeiro de",
affiliation = "FATEC and {Instituto Nacional de Pesquisas Espaciais (INPE)}",
title = "Visualiza{\c{c}}{\~a}o interativa de dados e cen{\'a}rios
ambientais usando controle de gestos",
year = "2016",
organization = "Semin{\'a}rio de Inicia{\c{c}}{\~a}o Cient{\'{\i}}fica e
Inicia{\c{c}}{\~a}o em Desenvolvimento Tecnol{\'o}gico e
Inova{\c{c}}{\~a}o (SICINPE)",
publisher = "Instituto Nacional de Pesquisas Espaciais",
address = "S{\~a}o Jos{\'e} dos Campos, SP",
note = "{Bolsa PIBIC/INPE/CNPq}",
abstract = "O objetivo deste projeto {\'e} implementar uma ferramenta
computacional para a visualiza{\c{c}}{\~a}o interativa de dados
espaciais. Esta ferramenta possui mecanismos para controle e
sele{\c{c}}{\~a}o de um conjunto de dados
espa{\c{c}}o-temporais, como por exemplo resultados de pesquisas
produzidas pelo Centro de Ci{\^e}ncia do Sistema Terrestre
(CCST). O ambiente computacional adotado utiliza a linguagem de
programa{\c{c}}{\~a}o Java, o sensor de gestos Microsoft Kinect,
a biblioteca para a intera{\c{c}}{\~a}o por gestos OpenNI 2 e o
globo virtual NASA World Wind 2. O Kinect possui uma c{\^a}mera
de alta resolu{\c{c}}{\~a}o e um conjunto de sensores capazes de
detectar at{\'e} vinte articula{\c{c}}{\~o}es do corpo humano
com uma taxa de captura de dados de trinta quadros por segundo. A
biblioteca OpenNI 2 simplifica e acelera o desenvolvimento de
aplica{\c{c}}{\~o}es com o Kinect. Por exemplo, ela permite
acesso a profundidade da imagem captada para rastrear o
usu{\'a}rio atrav{\'e}s da constru{\c{c}}{\~a}o de uma cena
tridimensional. O World Wind {\'e} uma API que fornece um globo
virtual para a visualiza{\c{c}}{\~a}o de mapas e
informa{\c{c}}{\~o}es geogr{\'a}ficas. A arquitetura
desenvolvida usa o padr{\~a}o model-view-controller (MVC) para
desacoplar a identifica{\c{c}}{\~a}o dos gestos da
visualiza{\c{c}}{\~a}o, possibilitando altera{\c{c}}{\~o}es em
quaisquer camadas independentemente. Atrav{\'e}s da an{\'a}lise
de movimento criou-se um componente com capacidade de
reconhecimento de gestos 3D, o qual considera o n{\'u}mero de
imagens capturadas pela c{\^a}mera e a movimenta{\c{c}}{\~a}o
dos membros superiores do usu{\'a}rio. A ferramenta implementada
possui v{\'a}rios gestos que ativam determinados comandos de
visualiza{\c{c}}{\~a}o. Por exemplo, gesto de deslocar a
m{\~a}o direita esta associado ao comando de mover o mapa; o
gesto de aproximar e afastar as m{\~a}os esta associado a o
diminuir e aumentar o zoom, respectivamente; o gesto segurar o
mapa com uma m{\~a}o e deslizar na horizontal com a outra esta
associado a visualizar um mesmo dado em diferentes tempos; o gesto
de segurar o mapa com uma m{\~a}o e deslizar na vertical com a
outra esta associado a alterar os dados a serem visualizados; o
gesto de empurrar efetuado com a m{\~a}o direita esta associado
{\`a} sele{\c{c}}{\~a}o de dados. A ferramenta desenvolvida
{\'e} um software livre e esta dispon{\'{\i}}vel no GitHub.",
conference-location = "S{\~a}o Jos{\'e} dos Campos, SP",
conference-year = "25-26 jul.",
language = "pt",
ibi = "8JMKD3MGP3W34P/3N5E6PB",
url = "http://urlib.net/ibi/8JMKD3MGP3W34P/3N5E6PB",
targetfile = "Carneiro_visualizacao.pdf",
urlaccessdate = "27 abr. 2024"
}